草庐IT

Android Volley, JsonObjectRequest 但收到 JsonArray

全部标签

java - 错误 - 映射 : expected org. apache.hadoop.io.Text 中的键类型不匹配,收到 org.apache.hadoop.io.LongWritable

我试图用java编写mapreduce代码。这是我的文件。映射器类(bmapper):publicclassbmapperextendsMapper{privateStringtxt=newString();publicvoidmapper(LongWritablekey,Textvalue,Contextcontext)throwsIOException,InterruptedException{Stringstr=value.toString();intindex1=str.indexOf("TABLEOFCONTENTS");intindex2=str.indexOf("");i

java - 为什么我收到 Apache™ Hadoop® ConnectionRefused

我正在创建我的第一个Java应用程序来使用HadoopHDFS。我在笔记本电脑上使用eclipse访问远程HDFS集群。我想从一个列出特定HDFS文件夹中所有文件的简单示例开始。如何配置远程HDFSbox的主机名和端口名?Configurationconf=newConfiguration();conf.set("fs.default.name","hdfs://hostname:9000/“);FileSystemfs=FileSystem.get(conf);连接被拒绝我做错了什么?更新0001我试过执行这个java代码System.setProperty("HADOOP_USER

xml - 当我要格式化 namenode 时,我收到错误提示 org.xml.sax.SAXParseException

pc83@pc83-ThinkCentre-M92p:~/Application/hadoop-2.6.0/etc/hadoop$hadoopnamenode-formatDEPRECATED:Useofthisscripttoexecutehdfscommandisdeprecated.Insteadusethehdfscommandforit.15/10/0916:02:11INFOnamenode.NameNode:STARTUP_MSG:/************************************************************STARTUP_MS

Hadoop:为什么我在 Namenode Information Web 中收到 "Max Non Heap Memory is -1 B."消息?这是什么意思?

我有一个使用VirtualBox制作的Hadoop2.6.5集群(一个主节点用作名称节点和数据节点,两个从节点)(easch节点安装了Xubuntu16.04)。先验,安装是正确的,因为我运行了一个wordcount示例并且没问题。在master:50070(我看到名称节点信息的地方),我得到这个:"MaxNonHeapMemoryis-1B."你知道这是什么意思吗?我找不到答案,我想检查一下,因为在运行wordcount之后我尝试运行我自己的程序但它没有成功,尽管它在我的Hadoop单节点安装中运行正常。我希望清楚,如果您需要更多信息,请告诉我。谢谢! 最

java - 错误 : java. io.IOException : Type mismatch in key from map: expected org. apache.hadoop.io.Text,收到 org.apache.hadoop.io.LongWritable

我是hadoop的新手,正在尝试运行书中的示例程序。我面临错误错误:java.io.IOException:映射中的键类型不匹配:预期的org.apache.hadoop.io.Text,收到org.apache.hadoop.io.LongWritable下面是我的代码packagecom.hadoop.employee.salary;importjava.io.IOException;importorg.apache.hadoop.io.FloatWritable;importorg.apache.hadoop.io.LongWritable;importorg.apache.ha

java - 错误 : java. io.IOException : Type mismatch in value from map: expected org. apache.hadoop.io.IntWritable,收到 org.apache.hadoop.io.Text

我的MapReduce程序如下:importjava.io.IOException;importjava.util.Iterator;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Job;importorg.apache.hadoop.mapreduce.Mapper;impo

hadoop - 为什么我每隔一天收到 "Too many fetch-failures"

每当我们运行两个处理大约400GB数据的大型Pig作业时,我都会从一个或另一个任务跟踪器收到此错误。我们发现在杀死作业并让集群静默一段时间后,一切又恢复正常了。请提出真正的问题是什么? 最佳答案 解决办法,修改datanode节点的/etc/hosts文件。主办方简要格式:每行分为三部分:第一部分网络IP地址,第二部分主机名或域名,第三部分主机别名详细步骤如下:1、首先查看主机名:cat/proc/sys/内核/主机名会看到一个HOSTNAME属性,把IP后面的值改一下就OK了,然后退出。2、使用命令:主机名*。。。*星号替换为相应

hadoop - 以独立模式运行 HBase 但收到 hadoop "retrying connect to server"消息?

我正尝试按照本教程在独立模式下运行HBase:http://hbase.apache.org/book.html#quickstart当我尝试运行时出现以下异常create'test','cf'在HBase外壳中ERROR:org.apache.hadoop.hbase.PleaseHoldException:org.apache.hadoop.hbase.PleaseHoldException:Masterisinitializing我在这里看到了有关此错误的问题,但解决方案对我没有用。也许更麻烦,也可能是问题的核心,是当我停止HBase时,我在日志中一遍又一遍地收到以下消息:INF

hadoop - 为什么我会突然收到 'KerberosName$NoMatchingRule: No rules applied to user@REALM' 错误?

我们一直在多个(较旧的)Cloudera实例中使用Kerberos身份验证而没有出现问题,但现在出现“KerberosName$NoMatchingRule:没有规则应用于user@REALM”错误。我们一直在修改代码以添加功能,但据我所知,没有人触及身份验证代码或集群配置。(我不能排除这种可能性-显然有些东西已经改变了。)我设置了一个简单的单元测试并验证了此行为。在命令行,我可以执行“kinit-ktuser.keytabuser”并获取相应的Kerberos票证。这验证了正确的配置和key表文件。但是我的独立应用程序因提到的错误而失败。更新当我编辑这个时,我一直在调试器中运行测试,

java - 在 MRUnit 中收到意外输出

我收到以下MRUnit错误:ERRORmrunit.TestDriver:Receivedunexpectedoutput(60,mrdp.MyCustomClass@73207f36)ERRORmrunit.TestDriver:Missingexpectedoutput(60,mrdp.MyCustomClass@6f73cf45)atposition0我创建了一个MyCustomClass,它实现了Writable,并且有4个int属性。这是我的映射器的输出值。下面是mapper的MRUnit测试代码:@TestpublicvoidtestMapper()throwsIOExce